如今,各种机器学习(ML)应用程序在无线网络边缘提供连续数据处理和实时数据分析。分布式ML解决方案受到资源异质性严重挑战,特别是所谓的脱柱效应。为了解决此问题,我们设计一种用于设备的新设备到设备(D2D)辅助编码联合学习方法(D2D-CFL),用于在特征隐私泄漏时跨设备负载平衡。所提出的解决方案捕获系统动态,包括数据(时间依赖学习模型,数据到达的各种强度),设备(不同的计算资源和培训数据量)和部署(各种位置和D2D图连接)。我们得出了最佳压缩速率,以实现最小处理时间并建立与收敛时间的连接。由此产生的优化问题提供了次优压缩参数,其提高了总培训时间。我们所提出的方法有利于实时协同应用,用户不断地生成培训数据。
translated by 谷歌翻译